联合学习允许一组分布式客户端培训私有数据的公共机器学习模型。模型更新的交换由中央实体或以分散的方式管理,例如,由一个区间的。但是,所有客户端的强大概括都使得这些方法不合适,不合适地分布(非IID)数据。我们提出了一个统一的统一方法,在联合学习中的权力下放和个性化,该方法是基于模型更新的定向非循环图(DAG)。客户端代替培训单个全局模型,客户端专门从事来自其他客户端的模型更新的本地数据,而不是依赖于各自数据的相似性。这种专业化从基于DAG的沟通和模型更新的选择隐含地出现。因此,我们启用专业模型的演变,它专注于数据的子集,因此覆盖非IID数据,而不是在基于区块的基于区块的设置中的联合学习。据我们所知,拟议的解决方案是第一个在完全分散的联邦学习中团结的个性化和中毒鲁棒性。我们的评价表明,模型的专业化直接从基于DAG的模型更新通信到三个不同的数据集。此外,与联合平均相比,我们在客户端展示稳定的模型精度和更少的方差。
translated by 谷歌翻译
Steady-state models which have been learned from historical operational data may be unfit for model-based optimization unless correlations in the training data which are introduced by control are accounted for. Using recent results from work on structural dynamical causal models, we derive a formula for adjusting for this control confounding, enabling the estimation of a causal steady-state model from closed-loop steady-state data. The formula assumes that the available data have been gathered under some fixed control law. It works by estimating and taking into account the disturbance which the controller is trying to counteract, and enables learning from data gathered under both feedforward and feedback control.
translated by 谷歌翻译
我们介绍了网络STEREO-21数据集,这是开放式出版物中大量的科学文本重复使用。它包含420万个独特的开放式出版物中发现的超过9100万例重复使用的文本段落。我们的数据集具有高度覆盖科学学科和重复使用的多种元素,以及全面的元数据,以使每个案例与每个案例进行背景化,解决了以前关于科学写作的最显着的缺点。Webis-Stereo-21允许从不同科学背景中解决广泛的研究问题,从而促进了对该现象的定性和定量分析,以及首次基于科学出版物中文本重复使用的基本率。
translated by 谷歌翻译